Bert在文本分类任务中取得了显着的结果,但尚未完全利用它,因为仅将最后一层用作下游分类器的表示输出。关于伯特学到的语言特征性质的最新研究表明,不同的层集中在不同种类的语言特征上。我们提出了一个CNN增强的变压器编码器模型,该模型在固定的bert $ [cls] $顶部进行了训练,来自所有层的表示,采用卷积神经网络来生成变压器编码器内的QKV功能映射,而不是线性的输入投影,进入嵌入空间。 CNN-Trans-enc相对较小,因为下游分类器,并且不需要对Bert进行任何微调,因为它可以确保从所有层中的$ [CLS] $表示的最佳使用,从而利用具有更有意义,更有意义,更有意义,更有意义的语言功能和输入的可推广QKV表示。将BERT与CNN-Trans-enc一起使用$ 98.9 \%$和$ 94.8 \%\%$ $ $ $ $ -5,$ 82.23 $($ 8.9 \%$改善),在亚马逊极性上,$ 0.98 \%$($ 0.2 \%$改进)(来自两个数据集的100万个样本子集的K倍交叉验证)。在AG新闻数据集中,CNN-Trans-enc在当前最新的$ 99.94 \%$中,并在DBPEDIA-14上获得了新的最高绩效,平均准确性为99.51美元\%$。索引术语:文本分类,自然语言处理,卷积神经网络,变压器,伯特
translated by 谷歌翻译